-
1 энтропия случайной величины
Русско-английский словарь по электронике > энтропия случайной величины
-
2 энтропия случайной величины
Русско-английский словарь по радиоэлектронике > энтропия случайной величины
-
3 энтропия случайной величины
энтропия случайной величины
Энтропия распределения вероятностей случайной величины.
[Сборник рекомендуемых терминов. Выпуск 94. Теория передачи информации. Академия наук СССР. Комитет технической терминологии. 1979 г.]Тематики
EN
Русско-английский словарь нормативно-технической терминологии > энтропия случайной величины
-
4 дифференциальная энтропия случайной величины
дифференциальная энтропия случайной величины
Дифференциальная энтропия распределения вероятностей непрерывной случайной величины.
[Сборник рекомендуемых терминов. Выпуск 94. Теория передачи информации. Академия наук СССР. Комитет технической терминологии. 1979 г.]Тематики
EN
Русско-английский словарь нормативно-технической терминологии > дифференциальная энтропия случайной величины
-
5 условная дифференциальная энтропия случайной величины
условная дифференциальная энтропия случайной величины
Дифференциальная энтропия условного распределения вероятностей случайной величины.
[Сборник рекомендуемых терминов. Выпуск 94. Теория передачи информации. Академия наук СССР. Комитет технической терминологии. 1979 г.]Тематики
EN
Русско-английский словарь нормативно-технической терминологии > условная дифференциальная энтропия случайной величины
-
6 условная энтропия случайной величины
условная энтропия случайной величины
Энтропия условного распределения вероятностей случайной величины при условии, что задано значение другой случайной величины.
[Сборник рекомендуемых терминов. Выпуск 94. Теория передачи информации. Академия наук СССР. Комитет технической терминологии. 1979 г.]Тематики
EN
Русско-английский словарь нормативно-технической терминологии > условная энтропия случайной величины
-
7 дифференциальная энтропия случайной величины
General subject: differential random variable entropy (дифференциальная энтропия распределения вероятностей непрерывной случайной величины; см. Теория передачи информации. Терминология. Вып. 94. М.: Наука, 1979)Универсальный русско-английский словарь > дифференциальная энтропия случайной величины
-
8 условная дифференциальная энтропия случайной величины
General subject: conditional differential random-variable entropy (дифференциальная энтропия условного распределения вероятностей случайной величины; см. Теория передачи информации. Терминология. Вып. 94. М.: Наук)Универсальный русско-английский словарь > условная дифференциальная энтропия случайной величины
-
9 условная энтропия случайной величины
General subject: conditional random-variable entropy (энтропия условного распределения вероятностей случайной величины при условии, что задано значение другой случайной величины; см. Теория передачи информации. Терминология. Вып.)Универсальный русско-английский словарь > условная энтропия случайной величины
-
10 энтропия случайной величины
Makarov: random-variable entropyУниверсальный русско-английский словарь > энтропия случайной величины
См. также в других словарях:
Entropy — A mathematical measurement of the degree of uncertainty of a random variable. Entropy in this sense is essentially a measure of randomness. It is typically used by financial analysts and market technicians to determine the chances of a specific… … Investment dictionary
Entropy (information theory) — In information theory, entropy is a measure of the uncertainty associated with a random variable. The term by itself in this context usually refers to the Shannon entropy, which quantifies, in the sense of an expected value, the information… … Wikipedia
Entropy power inequality — In mathematics, the entropy power inequality is a result in probability theory that relates to so called entropy power of random variables. It shows that the entropy power of suitably well behaved random variables is a superadditive function. The … Wikipedia
Differential entropy — (also referred to as continuous entropy) is a concept in information theory that extends the idea of (Shannon) entropy, a measure of average surprisal of a random variable, to continuous probability distributions. Contents 1 Definition 2… … Wikipedia
Maximum entropy probability distribution — In statistics and information theory, a maximum entropy probability distribution is a probability distribution whose entropy is at least as great as that of all other members of a specified class of distributions. According to the principle of… … Wikipedia
Conditional entropy — Individual (H(X),H(Y)), joint (H(X,Y)), and conditional entropies for a pair of correlated subsystems X,Y with mutual information I(X; Y). In information theory, the conditional entropy (or equivocation) quantifies the remaining entropy (i.e.… … Wikipedia
Joint entropy — The joint entropy is an entropy measure used in information theory. The joint entropy measures how much entropy is contained in a joint system of two random variables. If the random variables are X and Y, the joint entropy is written H(X,Y). Like … Wikipedia
Rényi entropy — In information theory, the Rényi entropy, a generalisation of Shannon entropy, is one of a family of functionals for quantifying the diversity, uncertainty or randomness of a system. It is named after Alfréd Rényi. The Rényi entropy of order α,… … Wikipedia
Joint quantum entropy — The joint quantum entropy generalizes the classical joint entropy to the context of quantum information theory. Intuitively, given two quantum states ho and sigma, represented as density operators that are subparts of a quantum system, the joint… … Wikipedia
information entropy — noun A measure of the uncertainty associated with a random variable ; a measure of the average information content one is missing when one does not know the value of the random variable ; usually in units such as bits. A passphrase is similar to… … Wiktionary
Markov random field — A Markov random field, Markov network or undirected graphical model is a set of variables having a Markov property described by an undirected graph. A Markov random field is similar to a Bayesian network in its representation of dependencies. It… … Wikipedia